Evolución diferencial

De Wikipedia, la enciclopedia libre

La Evolución Diferencial (ED) es un método de optimización perteneciente a la categoría de computación evolutiva, aplicado en la resolución de problemas complejos. Al igual que otros algoritmos de esta categoría, la ED mantiene una población de soluciones candidatas, las cuales se recombinan y mutan para producir nuevos individuos los cuales serán elegidos de acuerdo al valor de su función de desempeño. Lo que caracteriza a la ED es el uso de vectores de prueba, los cuales compiten con los individuos de la población actual a fin de sobrevivir.

Historia[editar]

El primer artículo sobre ED fue publicado por Kenneth Price y Rainer Storn en octubre de 1995 bajo el nombre de "Differential Evolution -- a simple and efficient adaptive scheme for global optimization over continuous spaces". Originalmente, el método estaba enfocado en la resolución del problema de ajuste de polinomio de Tchebychev utilizando una variante del método llamado Recocido Genético (Genetic Annealing), el cual había sido desarrollado por Price el año anterior. En 1996, ED fue presentado en el First International Contest on Evolutionary Optimization, que buscaba comparar el potencial de distintos métodos de optimización de computación evolutiva, finalizando ED en tercer lugar.

Hoy en día, ED representa una de las corrientes principales de la investigación en computación evolutiva.

Algoritmo[editar]

El algoritmo asume que las variables del problema a optimizar están codificadas como un vector de números reales. La longitud de estos vectores (n)es igual al número de variables del problema, y la población está compuesta de NP (Número de padres)vectores. Se define un vector , en donde p es el índice del individuo en la población (p = 1...NP) y g es la generación correspondiente. Cada vector está a su vez compuesto de las variables del problema , en donde m es el índice de la variable en el individuo (m = 1...n).

Se asume que el dominio de las variables del problema está restringido entre valores mínimos y máximos y , respectivamente.

ED se compone básicamente de 4 pasos:

  • Inicialización
  • Mutación
  • Recombinación
  • Selección

La inicialización se realiza al principio de la ejecución de la búsqueda, y los pasos de mutación-recombinación-selección se realizan repetidas veces, hasta que una condición de término sea satisfecha (número de generaciones, tiempo transcurrido, o calidad de solución alcanzada, entre otras).

Inicialización[editar]

La población es inicializada (primera generación) aleatoriamente, considerando los valores mínimos y máximos de cada variable:

para p = 1...NP, m = 1...n, y rand(0,1) un número aleatorio en el rango [0,1].

Mutación[editar]

La mutación consiste en la construcción de NP vectores aleatorios ruidosos (noisy random vectors), los cuales son creados a partir de tres individuos elegidos al azar, llamados vectores objetivo (target vectors), . Los vectores aleatorios ruidosos () son obtenidos de la siguiente manera:

con p, a, b y c distintos entre sí, y p=1...NP

F es un parámetro que controla la tasa de mutación, y se encuentra en el rango [0,2].

Recombinación[editar]

Una vez obtenidos los NP vectores aleatorios ruidosos, la recombinación se efectúa de manera aleatoria, comparándolos con los vectores originales (), obteniendo los vectores de prueba (trial vectors, ) de la siguiente manera:

para p = 1...NP, m = 1...n.

GR es un parámetro que controla la tasa de recombinación. Nótese que la comparación se hace variable por variable, por lo que el vector de prueba será una mezcla de los vectores aleatorios ruidosos y original.

Selección[editar]

Finalmente, la selección se realiza simplemente comparando los vectores de prueba con los originales, de manera que el vector de la generación siguiente será aquel que tenga el mejor valor de función de desempeño fit:

Referencias[editar]